62. 搭建 EFK 日志系统

上节课和大家介绍了 Kubernetes 集群中的几种日志收集方案,Kubernetes 中比较流行的日志收集解决方案是 Elasticsearch、Fluentd 和 Kibana(EFK)技术栈,也是官方现在比较推荐的一种方案。

Elasticsearch 是一个实时的、分布式的可扩展的搜索引擎,允许进行全文、结构化搜索,它通常用于索引和搜索大量日志数据,也可用于搜索许多不同类型的文档。

Elasticsearch 通常与 Kibana 一起部署,Kibana 是 Elasticsearch 的一个功能强大的数据可视化 Dashboard,Kibana 允许你通过 web 界面来浏览 Elasticsearch 日志数据。

Fluentd是一个流行的开源数据收集器,我们将在 Kubernetes 集群节点上安装 Fluentd,通过获取容器日志文件、过滤和转换日志数据,然后将数据传递到 Elasticsearch 集群,在该集群中对其进行索引和存储。

我们先来配置启动一个可扩展的 Elasticsearch 集群,然后在 Kubernetes 集群中创建一个 Kibana 应用,最后通过 DaemonSet 来运行 Fluentd,以便它在每个 Kubernetes 工作节点上都可以运行一个 Pod。

创建 Elasticsearch 集群

在创建 Elasticsearch 集群之前,我们先创建一个命名空间,我们将在其中安装所有日志相关的资源对象。

新建一个 kube-logging.yaml 文件:

  1. apiVersion: v1
  2. kind: Namespace
  3. metadata:
  4. name: logging

然后通过 kubectl 创建该资源清单,创建一个名为 logging 的 namespace:

  1. $ kubectl create -f kube-logging.yaml
  2. namespace/logging created
  3. $ kubectl get ns
  4. NAME STATUS AGE
  5. default Active 244d
  6. istio-system Active 100d
  7. kube-ops Active 179d
  8. kube-public Active 244d
  9. kube-system Active 244d
  10. logging Active 4h
  11. monitoring Active 35d

现在创建了一个命名空间来存放我们的日志相关资源,接下来可以部署 EFK 相关组件,首先开始部署一个3节点的 Elasticsearch 集群。

这里我们使用3个 Elasticsearch Pod 来避免高可用下多节点集群中出现的“脑裂”问题,当一个或多个节点无法与其他节点通信时会产生“脑裂”,可能会出现几个主节点。

了解更多 Elasticsearch 集群脑裂问题,可以查看文档https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-node.html#split-brain

一个关键点是您应该设置参数discover.zen.minimum_master_nodes=N/2+1,其中N是 Elasticsearch 集群中符合主节点的节点数,比如我们这里3个节点,意味着N应该设置为2。这样,如果一个节点暂时与集群断开连接,则另外两个节点可以选择一个新的主节点,并且集群可以在最后一个节点尝试重新加入时继续运行,在扩展 Elasticsearch 集群时,一定要记住这个参数。

首先创建一个名为 elasticsearch 的无头服务,新建文件 elasticsearch-svc.yaml,文件内容如下:

  1. kind: Service
  2. apiVersion: v1
  3. metadata:
  4. name: elasticsearch
  5. namespace: logging
  6. labels:
  7. app: elasticsearch
  8. spec:
  9. selector:
  10. app: elasticsearch
  11. clusterIP: None
  12. ports:
  13. - port: 9200
  14. name: rest
  15. - port: 9300
  16. name: inter-node

定义了一个名为 elasticsearch 的 Service,指定标签app=elasticsearch,当我们将 Elasticsearch StatefulSet 与此服务关联时,服务将返回带有标签app=elasticsearch的 Elasticsearch Pods 的 DNS A 记录,然后设置clusterIP=None,将该服务设置成无头服务。最后,我们分别定义端口9200、9300,分别用于与 REST API 交互,以及用于节点间通信。

使用 kubectl 直接创建上面的服务资源对象:

  1. $ kubectl create -f elasticsearch-svc.yaml
  2. service/elasticsearch created
  3. $ kubectl get services --namespace=logging
  4. Output
  5. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  6. elasticsearch ClusterIP None <none> 9200/TCP,9300/TCP 26s

现在我们已经为 Pod 设置了无头服务和一个稳定的域名.elasticsearch.logging.svc.cluster.local,接下来我们通过 StatefulSet 来创建具体的 Elasticsearch 的 Pod 应用。

Kubernetes StatefulSet 允许我们为 Pod 分配一个稳定的标识和持久化存储,Elasticsearch 需要稳定的存储来保证 Pod 在重新调度或者重启后的数据依然不变,所以需要使用 StatefulSet 来管理 Pod。

要了解更多关于 StaefulSet 的信息,可以查看官网关于 StatefulSet 的相关文档:https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/

新建名为 elasticsearch-statefulset.yaml 的资源清单文件,首先粘贴下面内容:

  1. apiVersion: apps/v1
  2. kind: StatefulSet
  3. metadata:
  4. name: es-cluster
  5. namespace: logging
  6. spec:
  7. serviceName: elasticsearch
  8. replicas: 3
  9. selector:
  10. matchLabels:
  11. app: elasticsearch
  12. template:
  13. metadata:
  14. labels:
  15. app: elasticsearch

该内容中,我们定义了一个名为 es-cluster 的 StatefulSet 对象,然后定义serviceName=elasticsearch和前面创建的 Service 相关联,这可以确保使用以下 DNS 地址访问 StatefulSet 中的每一个 Pod:es-cluster-[0,1,2].elasticsearch.logging.svc.cluster.local,其中[0,1,2]对应于已分配的 Pod 序号。

然后指定3个副本,将 matchLabels 设置为app=elasticsearch,所以 Pod 的模板部分.spec.template.metadata.lables也必须包含app=elasticsearch标签。

然后定义 Pod 模板部分内容:

  1. ...
  2. spec:
  3. containers:
  4. - name: elasticsearch
  5. image: docker.elastic.co/elasticsearch/elasticsearch-oss:6.4.3
  6. resources:
  7. limits:
  8. cpu: 1000m
  9. requests:
  10. cpu: 100m
  11. ports:
  12. - containerPort: 9200
  13. name: rest
  14. protocol: TCP
  15. - containerPort: 9300
  16. name: inter-node
  17. protocol: TCP
  18. volumeMounts:
  19. - name: data
  20. mountPath: /usr/share/elasticsearch/data
  21. env:
  22. - name: cluster.name
  23. value: k8s-logs
  24. - name: node.name
  25. valueFrom:
  26. fieldRef:
  27. fieldPath: metadata.name
  28. - name: discovery.zen.ping.unicast.hosts
  29. value: "es-cluster-0.elasticsearch,es-cluster-1.elasticsearch,es-cluster-2.elasticsearch"
  30. - name: discovery.zen.minimum_master_nodes
  31. value: "2"
  32. - name: ES_JAVA_OPTS
  33. value: "-Xms512m -Xmx512m"

该部分是定义 StatefulSet 中的 Pod,我们这里使用一个-oss后缀的镜像,该镜像是 Elasticsearch 的开源版本,如果你想使用包含X-Pack之类的版本,可以去掉该后缀。然后暴露了9200和9300两个端口,注意名称要和上面定义的 Service 保持一致。然后通过 volumeMount 声明了数据持久化目录,下面我们再来定义 VolumeClaims。最后就是我们在容器中设置的一些环境变量了:

  • cluster.name:Elasticsearch 集群的名称,我们这里命名成 k8s-logs。
  • node.name:节点的名称,通过metadata.name来获取。这将解析为 es-cluster-[0,1,2],取决于节点的指定顺序。
  • discovery.zen.ping.unicast.hosts:此字段用于设置在 Elasticsearch 集群中节点相互连接的发现方法。我们使用 unicastdiscovery 方式,它为我们的集群指定了一个静态主机列表。由于我们之前配置的无头服务,我们的 Pod 具有唯一的 DNS 域es-cluster-[0,1,2].elasticsearch.logging.svc.cluster.local,因此我们相应地设置此变量。由于都在同一个 namespace 下面,所以我们可以将其缩短为es-cluster-[0,1,2].elasticsearch。要了解有关 Elasticsearch 发现的更多信息,请参阅 Elasticsearch 官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-discovery.html
  • discovery.zen.minimum_master_nodes:我们将其设置为(N/2) + 1N是我们的群集中符合主节点的节点的数量。我们有3个 Elasticsearch 节点,因此我们将此值设置为2(向下舍入到最接近的整数)。要了解有关此参数的更多信息,请参阅官方 Elasticsearch 文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-node.html#split-brain
  • ES_JAVA_OPTS:这里我们设置为-Xms512m -Xmx512m,告诉JVM使用512 MB的最小和最大堆。您应该根据群集的资源可用性和需求调整这些参数。要了解更多信息,请参阅设置堆大小的相关文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/heap-size.html

接下来添加关于 initContainer 的内容:

  1. ...
  2. initContainers:
  3. - name: fix-permissions
  4. image: busybox
  5. command: ["sh", "-c", "chown -R 1000:1000 /usr/share/elasticsearch/data"]
  6. securityContext:
  7. privileged: true
  8. volumeMounts:
  9. - name: data
  10. mountPath: /usr/share/elasticsearch/data
  11. - name: increase-vm-max-map
  12. image: busybox
  13. command: ["sysctl", "-w", "vm.max_map_count=262144"]
  14. securityContext:
  15. privileged: true
  16. - name: increase-fd-ulimit
  17. image: busybox
  18. command: ["sh", "-c", "ulimit -n 65536"]
  19. securityContext:
  20. privileged: true

这里我们定义了几个在主应用程序之前运行的 Init 容器,这些初始容器按照定义的顺序依次执行,执行完成后才会启动主应用容器。

第一个名为 fix-permissions 的容器用来运行 chown 命令,将 Elasticsearch 数据目录的用户和组更改为1000:1000(Elasticsearch 用户的 UID)。因为默认情况下,Kubernetes 用 root 用户挂载数据目录,这会使得 Elasticsearch 无法方法该数据目录,可以参考 Elasticsearch 生产中的一些默认注意事项相关文档说明:https://www.elastic.co/guide/en/elasticsearch/reference/current/docker.html#_notes_for_production_use_and_defaults

第二个名为 increase-vm-max-map 的容器用来增加操作系统对mmap计数的限制,默认情况下该值可能太低,导致内存不足的错误,要了解更多关于该设置的信息,可以查看 Elasticsearch 官方文档说明:https://www.elastic.co/guide/en/elasticsearch/reference/current/vm-max-map-count.html

最后一个初始化容器是用来执行ulimit命令增加打开文件描述符的最大数量的。

此外 Elastisearch Notes for Production Use 文档还提到了由于性能原因最好禁用 swap,当然对于 Kubernetes 集群而言,最好也是禁用 swap 分区的。

现在我们已经定义了主应用容器和它之前运行的 Init Containers 来调整一些必要的系统参数,接下来我们可以添加数据目录的持久化相关的配置,在 StatefulSet 中,使用 volumeClaimTemplates 来定义 volume 模板即可:

  1. ...
  2. volumeClaimTemplates:
  3. - metadata:
  4. name: data
  5. labels:
  6. app: elasticsearch
  7. spec:
  8. accessModes: [ "ReadWriteOnce" ]
  9. storageClassName: es-data-db
  10. resources:
  11. requests:
  12. storage: 50Gi

我们这里使用 volumeClaimTemplates 来定义持久化模板,Kubernetes 会使用它为 Pod 创建 PersistentVolume,设置访问模式为ReadWriteOnce,这意味着它只能被 mount 到单个节点上进行读写,然后最重要的是使用了一个名为 es-data-db 的 StorageClass 对象,所以我们需要提前创建该对象,我们这里使用的 NFS 作为存储后端,所以需要安装一个对应的 provisioner 驱动,前面关于 StorageClass 的课程中已经和大家介绍过方法,新建一个 elasticsearch-storageclass.yaml 的文件,文件内容如下:

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: es-data-db
  5. provisioner: fuseim.pri/ifs # 该值需要和 provisioner 配置的保持一致

最后,我们指定了每个 PersistentVolume 的大小为 50GB,我们可以根据自己的实际需要进行调整该值。最后,完整的 Elasticsearch StatefulSet 资源清单文件内容如下:

  1. apiVersion: apps/v1
  2. kind: StatefulSet
  3. metadata:
  4. name: es-cluster
  5. namespace: logging
  6. spec:
  7. serviceName: elasticsearch
  8. replicas: 3
  9. selector:
  10. matchLabels:
  11. app: elasticsearch
  12. template:
  13. metadata:
  14. labels:
  15. app: elasticsearch
  16. spec:
  17. containers:
  18. - name: elasticsearch
  19. image: docker.elastic.co/elasticsearch/elasticsearch-oss:6.4.3
  20. resources:
  21. limits:
  22. cpu: 1000m
  23. requests:
  24. cpu: 100m
  25. ports:
  26. - containerPort: 9200
  27. name: rest
  28. protocol: TCP
  29. - containerPort: 9300
  30. name: inter-node
  31. protocol: TCP
  32. volumeMounts:
  33. - name: data
  34. mountPath: /usr/share/elasticsearch/data
  35. env:
  36. - name: cluster.name
  37. value: k8s-logs
  38. - name: node.name
  39. valueFrom:
  40. fieldRef:
  41. fieldPath: metadata.name
  42. - name: discovery.zen.ping.unicast.hosts
  43. value: "es-cluster-0.elasticsearch,es-cluster-1.elasticsearch,es-cluster-2.elasticsearch"
  44. - name: discovery.zen.minimum_master_nodes
  45. value: "2"
  46. - name: ES_JAVA_OPTS
  47. value: "-Xms512m -Xmx512m"
  48. initContainers:
  49. - name: fix-permissions
  50. image: busybox
  51. command: ["sh", "-c", "chown -R 1000:1000 /usr/share/elasticsearch/data"]
  52. securityContext:
  53. privileged: true
  54. volumeMounts:
  55. - name: data
  56. mountPath: /usr/share/elasticsearch/data
  57. - name: increase-vm-max-map
  58. image: busybox
  59. command: ["sysctl", "-w", "vm.max_map_count=262144"]
  60. securityContext:
  61. privileged: true
  62. - name: increase-fd-ulimit
  63. image: busybox
  64. command: ["sh", "-c", "ulimit -n 65536"]
  65. securityContext:
  66. privileged: true
  67. volumeClaimTemplates:
  68. - metadata:
  69. name: data
  70. labels:
  71. app: elasticsearch
  72. spec:
  73. accessModes: [ "ReadWriteOnce" ]
  74. storageClassName: es-data-db
  75. resources:
  76. requests:
  77. storage: 100Gi

现在直接使用 kubectl 工具部署即可:

  1. $ kubectl create -f elasticsearch-storageclass.yaml
  2. storageclass.storage.k8s.io "es-data-db" created
  3. $ kubectl create -f elasticsearch-statefulset.yaml
  4. statefulset.apps/es-cluster created

添加成功后,可以看到 logging 命名空间下面的所有的资源对象:

  1. $ kubectl get sts -n logging
  2. NAME DESIRED CURRENT AGE
  3. es-cluster 3 3 20h
  4. $ kubectl get pods -n logging
  5. NAME READY STATUS RESTARTS AGE
  6. es-cluster-0 1/1 Running 0 20h
  7. es-cluster-1 1/1 Running 0 20h
  8. es-cluster-2 1/1 Running 0 20h
  9. $ kubectl get svc -n logging
  10. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  11. elasticsearch ClusterIP None <none> 9200/TCP,9300/TCP 20h

Pods 部署完成后,我们可以通过请求一个 REST API 来检查 Elasticsearch 集群是否正常运行。使用下面的命令将本地端口9200转发到 Elasticsearch 节点(如es-cluster-0)对应的端口:

  1. $ kubectl port-forward es-cluster-0 9200:9200 --namespace=logging
  2. Forwarding from 127.0.0.1:9200 -> 9200
  3. Forwarding from [::1]:9200 -> 9200

然后,在另外的终端窗口中,执行如下请求:

  1. $ curl http://localhost:9200/_cluster/state?pretty

正常来说,应该会看到类似于如下的信息:

  1. {
  2. "cluster_name" : "k8s-logs",
  3. "compressed_size_in_bytes" : 348,
  4. "cluster_uuid" : "QD06dK7CQgids-GQZooNVw",
  5. "version" : 3,
  6. "state_uuid" : "mjNIWXAzQVuxNNOQ7xR-qg",
  7. "master_node" : "IdM5B7cUQWqFgIHXBp0JDg",
  8. "blocks" : { },
  9. "nodes" : {
  10. "u7DoTpMmSCixOoictzHItA" : {
  11. "name" : "es-cluster-1",
  12. "ephemeral_id" : "ZlBflnXKRMC4RvEACHIVdg",
  13. "transport_address" : "10.244.4.191:9300",
  14. "attributes" : { }
  15. },
  16. "IdM5B7cUQWqFgIHXBp0JDg" : {
  17. "name" : "es-cluster-0",
  18. "ephemeral_id" : "JTk1FDdFQuWbSFAtBxdxAQ",
  19. "transport_address" : "10.244.2.215:9300",
  20. "attributes" : { }
  21. },
  22. "R8E7xcSUSbGbgrhAdyAKmQ" : {
  23. "name" : "es-cluster-2",
  24. "ephemeral_id" : "9wv6ke71Qqy9vk2LgJTqaA",
  25. "transport_address" : "10.244.40.4:9300",
  26. "attributes" : { }
  27. }
  28. },
  29. ...

看到上面的信息就表明我们名为 k8s-logs 的 Elasticsearch 集群成功创建了3个节点:es-cluster-0,es-cluster-1,和es-cluster-2,当前主节点是 es-cluster-0。

创建 Kibana 服务

Elasticsearch 集群启动成功了,接下来我们可以来部署 Kibana 服务,新建一个名为 kibana.yaml 的文件,对应的文件内容如下:

  1. apiVersion: v1
  2. kind: Service
  3. metadata:
  4. name: kibana
  5. namespace: logging
  6. labels:
  7. app: kibana
  8. spec:
  9. ports:
  10. - port: 5601
  11. type: NodePort
  12. selector:
  13. app: kibana
  14. ---
  15. apiVersion: apps/v1
  16. kind: Deployment
  17. metadata:
  18. name: kibana
  19. namespace: logging
  20. labels:
  21. app: kibana
  22. spec:
  23. selector:
  24. matchLabels:
  25. app: kibana
  26. template:
  27. metadata:
  28. labels:
  29. app: kibana
  30. spec:
  31. containers:
  32. - name: kibana
  33. image: docker.elastic.co/kibana/kibana-oss:6.4.3
  34. resources:
  35. limits:
  36. cpu: 1000m
  37. requests:
  38. cpu: 100m
  39. env:
  40. - name: ELASTICSEARCH_URL
  41. value: http://elasticsearch:9200
  42. ports:
  43. - containerPort: 5601

上面我们定义了两个资源对象,一个 Service 和 Deployment,为了测试方便,我们将 Service 设置为了 NodePort 类型,Kibana Pod 中配置都比较简单,唯一需要注意的是我们使用 ELASTICSEARCH_URL 这个环境变量来设置Elasticsearch 集群的端点和端口,直接使用 Kubernetes DNS 即可,此端点对应服务名称为 elasticsearch,由于是一个 headless service,所以该域将解析为3个 Elasticsearch Pod 的 IP 地址列表。

配置完成后,直接使用 kubectl 工具创建:

  1. $ kubectl create -f kibana.yaml
  2. service/kibana created
  3. deployment.apps/kibana created

创建完成后,可以查看 Kibana Pod 的运行状态:

  1. $ kubectl get pods --namespace=logging
  2. NAME READY STATUS RESTARTS AGE
  3. es-cluster-0 1/1 Running 0 20h
  4. es-cluster-1 1/1 Running 0 20h
  5. es-cluster-2 1/1 Running 0 20h
  6. kibana-7558d4dc4d-5mqdz 1/1 Running 0 20h
  7. $ kubectl get svc --namespace=logging
  8. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  9. elasticsearch ClusterIP None <none> 9200/TCP,9300/TCP 20h
  10. kibana NodePort 10.105.208.253 <none> 5601:31816/TCP 20h

如果 Pod 已经是 Running 状态了,证明应用已经部署成功了,然后可以通过 NodePort 来访问 Kibana 这个服务,在浏览器中打开http://<任意节点IP>:31816即可,如果看到如下欢迎界面证明 Kibana 已经成功部署到了 Kubernetes集群之中。

kibana welcome

部署 Fluentd

Fluentd 是一个高效的日志聚合器,是用 Ruby 编写的,并且可以很好地扩展。对于大部分企业来说,Fluentd 足够高效并且消耗的资源相对较少,另外一个工具Fluent-bit更轻量级,占用资源更少,但是插件相对 Fluentd 来说不够丰富,所以整体来说,Fluentd 更加成熟,使用更加广泛,所以我们这里也同样使用 Fluentd 来作为日志收集工具。

工作原理

Fluentd 通过一组给定的数据源抓取日志数据,处理后(转换成结构化的数据格式)将它们转发给其他服务,比如 Elasticsearch、对象存储等等。Fluentd 支持超过300个日志存储和分析服务,所以在这方面是非常灵活的。主要运行步骤如下:

  • 首先 Fluentd 从多个日志源获取数据
  • 结构化并且标记这些数据
  • 然后根据匹配的标签将数据发送到多个目标服务去

fluentd 架构

配置

一般来说我们是通过一个配置文件来告诉 Fluentd 如何采集、处理数据的,下面简单和大家介绍下 Fluentd 的配置方法。

日志源配置

比如我们这里为了收集 Kubernetes 节点上的所有容器日志,就需要做如下的日志源配置:

  1. <source>
  2. @id fluentd-containers.log
  3. @type tail
  4. path /var/log/containers/*.log
  5. pos_file /var/log/fluentd-containers.log.pos
  6. time_format %Y-%m-%dT%H:%M:%S.%NZ
  7. tag raw.kubernetes.*
  8. format json
  9. read_from_head true
  10. </source>

上面配置部分参数说明如下:

  • id:表示引用该日志源的唯一标识符,该标识可用于进一步过滤和路由结构化日志数据
  • type:Fluentd 内置的指令,tail表示 Fluentd 从上次读取的位置通过 tail 不断获取数据,另外一个是http表示通过一个 GET 请求来收集数据。
  • path:tail类型下的特定参数,告诉 Fluentd 采集/var/log/containers目录下的所有日志,这是 docker 在 Kubernetes 节点上用来存储运行容器 stdout 输出日志数据的目录。
  • pos_file:检查点,如果 Fluentd 程序重新启动了,它将使用此文件中的位置来恢复日志数据收集。
  • tag:用来将日志源与目标或者过滤器匹配的自定义字符串,Fluentd 匹配源/目标标签来路由日志数据。

路由配置

上面是日志源的配置,接下来看看如何将日志数据发送到 Elasticsearch:

  1. <match **>
  2. @id elasticsearch
  3. @type elasticsearch
  4. @log_level info
  5. include_tag_key true
  6. type_name fluentd
  7. host "#{ENV['OUTPUT_HOST']}"
  8. port "#{ENV['OUTPUT_PORT']}"
  9. logstash_format true
  10. <buffer>
  11. @type file
  12. path /var/log/fluentd-buffers/kubernetes.system.buffer
  13. flush_mode interval
  14. retry_type exponential_backoff
  15. flush_thread_count 2
  16. flush_interval 5s
  17. retry_forever
  18. retry_max_interval 30
  19. chunk_limit_size "#{ENV['OUTPUT_BUFFER_CHUNK_LIMIT']}"
  20. queue_limit_length "#{ENV['OUTPUT_BUFFER_QUEUE_LIMIT']}"
  21. overflow_action block
  22. </buffer>
  • match:标识一个目标标签,后面是一个匹配日志源的正则表达式,我们这里想要捕获所有的日志并将它们发送给 Elasticsearch,所以需要配置成**
  • id:目标的一个唯一标识符。
  • type:支持的输出插件标识符,我们这里要输出到 Elasticsearch,所以配置成 elasticsearch,这是 Fluentd 的一个内置插件。
  • log_level:指定要捕获的日志级别,我们这里配置成info,表示任何该级别或者该级别以上(INFO、WARNING、ERROR)的日志都将被路由到 Elsasticsearch。
  • host/port:定义 Elasticsearch 的地址,也可以配置认证信息,我们的 Elasticsearch 不需要认证,所以这里直接指定 host 和 port 即可。
  • logstash_format:Elasticsearch 服务对日志数据构建反向索引进行搜索,将 logstash_format 设置为true,Fluentd 将会以 logstash 格式来转发结构化的日志数据。
  • Buffer: Fluentd 允许在目标不可用时进行缓存,比如,如果网络出现故障或者 Elasticsearch 不可用的时候。缓冲区配置也有助于降低磁盘的 IO。

安装

要收集 Kubernetes 集群的日志,直接用 DasemonSet 控制器来部署 Fluentd 应用,这样,它就可以从 Kubernetes 节点上采集日志,确保在集群中的每个节点上始终运行一个 Fluentd 容器。当然可以直接使用 Helm 来进行一键安装,为了能够了解更多实现细节,我们这里还是采用手动方法来进行安装。

首先,我们通过 ConfigMap 对象来指定 Fluentd 配置文件,新建 fluentd-configmap.yaml 文件,文件内容如下:

  1. kind: ConfigMap
  2. apiVersion: v1
  3. metadata:
  4. name: fluentd-config
  5. namespace: logging
  6. labels:
  7. addonmanager.kubernetes.io/mode: Reconcile
  8. data:
  9. system.conf: |-
  10. <system>
  11. root_dir /tmp/fluentd-buffers/
  12. </system>
  13. containers.input.conf: |-
  14. <source>
  15. @id fluentd-containers.log
  16. @type tail
  17. path /var/log/containers/*.log
  18. pos_file /var/log/es-containers.log.pos
  19. time_format %Y-%m-%dT%H:%M:%S.%NZ
  20. localtime
  21. tag raw.kubernetes.*
  22. format json
  23. read_from_head true
  24. </source>
  25. # Detect exceptions in the log output and forward them as one log entry.
  26. <match raw.kubernetes.**>
  27. @id raw.kubernetes
  28. @type detect_exceptions
  29. remove_tag_prefix raw
  30. message log
  31. stream stream
  32. multiline_flush_interval 5
  33. max_bytes 500000
  34. max_lines 1000
  35. </match>
  36. system.input.conf: |-
  37. # Logs from systemd-journal for interesting services.
  38. <source>
  39. @id journald-docker
  40. @type systemd
  41. filters [{ "_SYSTEMD_UNIT": "docker.service" }]
  42. <storage>
  43. @type local
  44. persistent true
  45. </storage>
  46. read_from_head true
  47. tag docker
  48. </source>
  49. <source>
  50. @id journald-kubelet
  51. @type systemd
  52. filters [{ "_SYSTEMD_UNIT": "kubelet.service" }]
  53. <storage>
  54. @type local
  55. persistent true
  56. </storage>
  57. read_from_head true
  58. tag kubelet
  59. </source>
  60. forward.input.conf: |-
  61. # Takes the messages sent over TCP
  62. <source>
  63. @type forward
  64. </source>
  65. output.conf: |-
  66. # Enriches records with Kubernetes metadata
  67. <filter kubernetes.**>
  68. @type kubernetes_metadata
  69. </filter>
  70. <match **>
  71. @id elasticsearch
  72. @type elasticsearch
  73. @log_level info
  74. include_tag_key true
  75. host elasticsearch
  76. port 9200
  77. logstash_format true
  78. request_timeout 30s
  79. <buffer>
  80. @type file
  81. path /var/log/fluentd-buffers/kubernetes.system.buffer
  82. flush_mode interval
  83. retry_type exponential_backoff
  84. flush_thread_count 2
  85. flush_interval 5s
  86. retry_forever
  87. retry_max_interval 30
  88. chunk_limit_size 2M
  89. queue_limit_length 8
  90. overflow_action block
  91. </buffer>
  92. </match>

上面配置文件中我们配置了 docker 容器日志目录以及 docker、kubelet 应用的日志的收集,收集到数据经过处理后发送到 elasticsearch:9200 服务。

然后新建一个 fluentd-daemonset.yaml 的文件,文件内容如下:

  1. apiVersion: v1
  2. kind: ServiceAccount
  3. metadata:
  4. name: fluentd-es
  5. namespace: logging
  6. labels:
  7. k8s-app: fluentd-es
  8. kubernetes.io/cluster-service: "true"
  9. addonmanager.kubernetes.io/mode: Reconcile
  10. ---
  11. kind: ClusterRole
  12. apiVersion: rbac.authorization.k8s.io/v1
  13. metadata:
  14. name: fluentd-es
  15. labels:
  16. k8s-app: fluentd-es
  17. kubernetes.io/cluster-service: "true"
  18. addonmanager.kubernetes.io/mode: Reconcile
  19. rules:
  20. - apiGroups:
  21. - ""
  22. resources:
  23. - "namespaces"
  24. - "pods"
  25. verbs:
  26. - "get"
  27. - "watch"
  28. - "list"
  29. ---
  30. kind: ClusterRoleBinding
  31. apiVersion: rbac.authorization.k8s.io/v1
  32. metadata:
  33. name: fluentd-es
  34. labels:
  35. k8s-app: fluentd-es
  36. kubernetes.io/cluster-service: "true"
  37. addonmanager.kubernetes.io/mode: Reconcile
  38. subjects:
  39. - kind: ServiceAccount
  40. name: fluentd-es
  41. namespace: logging
  42. apiGroup: ""
  43. roleRef:
  44. kind: ClusterRole
  45. name: fluentd-es
  46. apiGroup: ""
  47. ---
  48. apiVersion: apps/v1
  49. kind: DaemonSet
  50. metadata:
  51. name: fluentd-es
  52. namespace: logging
  53. labels:
  54. k8s-app: fluentd-es
  55. version: v2.0.4
  56. kubernetes.io/cluster-service: "true"
  57. addonmanager.kubernetes.io/mode: Reconcile
  58. spec:
  59. selector:
  60. matchLabels:
  61. k8s-app: fluentd-es
  62. version: v2.0.4
  63. template:
  64. metadata:
  65. labels:
  66. k8s-app: fluentd-es
  67. kubernetes.io/cluster-service: "true"
  68. version: v2.0.4
  69. # This annotation ensures that fluentd does not get evicted if the node
  70. # supports critical pod annotation based priority scheme.
  71. # Note that this does not guarantee admission on the nodes (#40573).
  72. annotations:
  73. scheduler.alpha.kubernetes.io/critical-pod: ''
  74. spec:
  75. serviceAccountName: fluentd-es
  76. containers:
  77. - name: fluentd-es
  78. image: cnych/fluentd-elasticsearch:v2.0.4
  79. env:
  80. - name: FLUENTD_ARGS
  81. value: --no-supervisor -q
  82. resources:
  83. limits:
  84. memory: 500Mi
  85. requests:
  86. cpu: 100m
  87. memory: 200Mi
  88. volumeMounts:
  89. - name: varlog
  90. mountPath: /var/log
  91. - name: varlibdockercontainers
  92. mountPath: /data/docker/containers
  93. readOnly: true
  94. - name: config-volume
  95. mountPath: /etc/fluent/config.d
  96. nodeSelector:
  97. beta.kubernetes.io/fluentd-ds-ready: "true"
  98. tolerations:
  99. - key: node-role.kubernetes.io/master
  100. operator: Exists
  101. effect: NoSchedule
  102. terminationGracePeriodSeconds: 30
  103. volumes:
  104. - name: varlog
  105. hostPath:
  106. path: /var/log
  107. - name: varlibdockercontainers
  108. hostPath:
  109. path: /data/docker/containers
  110. - name: config-volume
  111. configMap:
  112. name: fluentd-config

我们将上面创建的 fluentd-config 这个 ConfigMap 对象通过 volumes 挂载到了 Fluentd 容器中,另外为了能够灵活控制哪些节点的日志可以被收集,所以我们这里还添加了一个 nodSelector 属性:

  1. nodeSelector:
  2. beta.kubernetes.io/fluentd-ds-ready: "true"

意思就是要想采集节点的日志,那么我们就需要给节点打上上面的标签,比如我们这里3个节点都打上了该标签:

  1. $ kubectl get nodes --show-labels
  2. NAME STATUS ROLES AGE VERSION LABELS
  3. master Ready master 245d v1.10.0 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/fluentd-ds-ready=true,beta.kubernetes.io/os=linux,kubernetes.io/hostname=master,node-role.kubernetes.io/master=
  4. node02 Ready <none> 165d v1.10.0 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/fluentd-ds-ready=true,beta.kubernetes.io/os=linux,com=youdianzhishi,course=k8s,kubernetes.io/hostname=node02
  5. node03 Ready <none> 225d v1.10.0 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/fluentd-ds-ready=true,beta.kubernetes.io/os=linux,jnlp=haimaxy,kubernetes.io/hostname=node03

另外由于我们的集群使用的是 kubeadm 搭建的,默认情况下 master 节点有污点,所以要想也收集 master 节点的日志,则需要添加上容忍:

  1. tolerations:
  2. - key: node-role.kubernetes.io/master
  3. operator: Exists
  4. effect: NoSchedule

另外需要注意的地方是,我这里的测试环境更改了 docker 的根目录:

  1. $ docker info
  2. ...
  3. Docker Root Dir: /data/docker
  4. ...

所以上面要获取 docker 的容器目录需要更改成/data/docker/containers,这个地方非常重要,当然如果你没有更改 docker 根目录则使用默认的/var/lib/docker/containers目录即可。

分别创建上面的 ConfigMap 对象和 DaemonSet:

  1. $ kubectl create -f fluentd-configmap.yaml
  2. configmap "fluentd-config" created
  3. $ kubectl create -f fluentd-daemonset.yaml
  4. serviceaccount "fluentd-es" created
  5. clusterrole.rbac.authorization.k8s.io "fluentd-es" created
  6. clusterrolebinding.rbac.authorization.k8s.io "fluentd-es" created
  7. daemonset.apps "fluentd-es" created

创建完成后,查看对应的 Pods 列表,检查是否部署成功:

  1. $ kubectl get pods -n logging
  2. NAME READY STATUS RESTARTS AGE
  3. es-cluster-0 1/1 Running 0 1d
  4. es-cluster-1 1/1 Running 0 1d
  5. es-cluster-2 1/1 Running 0 1d
  6. fluentd-es-2z9jg 1/1 Running 1 35s
  7. fluentd-es-6dfdd 1/1 Running 0 35s
  8. fluentd-es-bfkg7 1/1 Running 0 35s
  9. kibana-7558d4dc4d-5mqdz 1/1 Running 0 1d

Fluentd 启动成功后,我们可以前往 Kibana 的 Dashboard 页面中,点击左侧的Discover,可以看到如下配置页面:

create index

在这里可以配置我们需要的 Elasticsearch 索引,前面 Fluentd 配置文件中我们采集的日志使用的是 logstash 格式,这里只需要在文本框中输入logstash-*即可匹配到 Elasticsearch 集群中的所有日志数据,然后点击下一步,进入以下页面:

index config

在该页面中配置使用哪个字段按时间过滤日志数据,在下拉列表中,选择@timestamp字段,然后点击Create index pattern,创建完成后,点击左侧导航菜单中的Discover,然后就可以看到一些直方图和最近采集到的日志数据了:

log data

测试

现在我们来将上一节课的计数器应用部署到集群中,并在 Kibana 中来查找该日志数据。

新建 counter.yaml 文件,文件内容如下:

  1. apiVersion: v1
  2. kind: Pod
  3. metadata:
  4. name: counter
  5. spec:
  6. containers:
  7. - name: count
  8. image: busybox
  9. args: [/bin/sh, -c,
  10. 'i=0; while true; do echo "$i: $(date)"; i=$((i+1)); sleep 1; done']

该 Pod 只是简单将日志信息打印到 stdout,所以正常来说 Fluentd 会收集到这个日志数据,在 Kibana 中也就可以找到对应的日志数据了,使用 kubectl 工具创建该 Pod:

  1. $ kubectl create -f counter.yaml

Pod 创建并运行后,回到 Kibana Dashboard 页面,在上面的Discover页面搜索栏中输入kubernetes.pod_name:counter,就可以过滤 Pod 名为 counter 的日志数据:

counter log data

我们也可以通过其他元数据来过滤日志数据,比如 您可以单击任何日志条目以查看其他元数据,如容器名称,Kubernetes 节点,命名空间等。

到这里,我们就在 Kubernetes 集群上成功部署了 EFK ,要了解如何使用 Kibana 进行日志数据分析,可以参考 Kibana 用户指南文档:https://www.elastic.co/guide/en/kibana/current/index.html

当然对于在生产环境上使用 Elaticsearch 或者 Fluentd,还需要结合实际的环境做一系列的优化工作,本文中涉及到的资源清单文件都可以在https://github.com/cnych/kubernetes-learning/tree/master/efkdemo找到。


点击查看本文视频

扫描下面的二维码(或微信搜索k8s技术圈)关注我们的微信公众帐号,在微信公众帐号中回复 加群 即可加入到我们的 kubernetes 讨论群里面共同学习。

k8s技术圈二维码